"A linha entre o verdadeiro e o falso não existe mais": Sora 2, o aplicativo que gera vídeos malucos usando IA

Lembre-se desse nome, Sora 2. Em poucos dias, ele se tornou o aplicativo gratuito número um na App Store da Apple em vários países. Embora atualmente esteja disponível apenas por convite, Sora 2 é incrivelmente popular!
Vale lembrar que o Sora é a IA de geração de vídeos da OpenAI. Em outras palavras, a partir de um texto, você gerará um minifilme, um clipe curto. Por exemplo, um cowboy fazendo um espacate em dois cavalos a galope ou um velocista enfrentando uma chita nos 100 metros.
O princípio não é novo, mas com Sora 2, demos um passo à frente... Primeiro, porque em termos de realismo de renderização, o resultado é absolutamente incrível. Filmes de um minuto, de qualidade fotorrealista, com sequências hiper-suaves de uma cena para outra, consistência dos elementos do cenário, respeito às leis da gravidade, sombras e som também, que correspondem ao conteúdo, por exemplo, comentários esportivos ou jornalísticos. Os vídeos são extremamente críveis, como se estivéssemos assistindo a um filme ou a uma reportagem.
Então, porque a OpenAI teve a ideia muito inteligente de criar um aplicativo de rede social que usa um pouco do código do TikTok . Com muitas possibilidades, como compartilhar suas criações – inclusive em outras redes sociais – e inserir você (ou outras pessoas) em vídeos. Como resultado, eles viralizam e todos se envolvem.
O problema é que, obviamente, quando você coloca esse tipo de ferramenta nas mãos de internautas, as coisas dão errado. Deepfakes não são novidade, mas com Sora 2, eles se tornam completamente indetectáveis e incontroláveis: Einstein praticando MMA ou Michael Jackson roubando nuggets de frango em um restaurante. Uma das tendências mais quentes é ressuscitar personalidades falecidas, tudo isso, é claro, sem qualquer autorização dos detentores dos direitos autorais.
O Sora 2 permite gerar vídeos de desinformação total e deliberada, como discursos falsos de políticos. Internautas que usaram o Sora 2 para gerar vídeos hiperviolentos, porém falsos, de ataques, desastres, cenas de pânico durante um tiroteio em massa, por exemplo, cenas que obviamente nunca existiram...
Não há respeito aos direitos autorais: pode-se desviar a imagem de uma personalidade ou de um personagem fictício: Bob Esponja com uniforme nazista, por exemplo, ou Mario ou Pikachu usados e desviados sem qualquer autorização.
A linha entre a verdade e a mentira não existe mais. Tudo o que você vê nas redes sociais pode ser contestado.
E não há salvaguardas suficientes para combatê-lo. Vídeos gerados pelo Sora não são rotulados como tal. Eles podem ser detectados analisando as características do vídeo; há uma espécie de marca d'água, mas ela não é visível a olho nu. E, dada a velocidade com que consumimos um vídeo nas redes sociais, ninguém vai prestar atenção a esse detalhe.
Em teoria, criar conteúdo violento ou pornográfico é proibido, mas ao "incentivá-lo" sutilmente, você sempre alcança seus objetivos (desse ponto de vista, a IA ainda tem algumas coisas a aprender com os humanos...). Tudo isso é ainda mais surpreendente, já que a primeira versão do Sora era hiperbloqueada, até mesmo censurada ou higienizada... Vamos de um extremo ao outro!
Porque a Open AI está em uma corrida por velocidade e popularidade contra o Google e seus Veo3, Runway ou até mesmo Grok . Estamos em uma corrida de velocidade e, desse ponto de vista, a Open AI retoma um dos grandes mantras do Vale do Silício: "mova-se rápido, conserte depois", mova-se rapidamente para conquistar usuários e consertar erros depois...
RMC